已发表的研究表明,基于性别的性别分类算法在性别竞赛组中存在偏见。具体而言,女性和黑皮肤的人获得了不平等的准确性率。为了减轻性别分类器的偏见,愿景社区已经制定了多种策略。但是,这些缓解策略的功效对于有限数量的种族证明了主要是高加索人和非裔美国人的功效。此外,这些策略通常在偏见和分类准确性之间提供权衡。为了进一步推进最先进的方法,我们利用生成观点,结构化学习和证据学习的力量来减轻性别分类偏见。我们通过广泛的实验验证来证明我们的偏见缓解策略在提高分类准确性和降低性别种族群体之间的偏见方面的优势,从而在内部和交叉数据集评估中取得了最新的性能。
translated by 谷歌翻译
深层伪造的面部伪造引起了严重的社会问题。愿景社区已经提出了几种解决方案,以通过自动化的深层检测系统有效地对待互联网上的错误信息。最近的研究表明,基于面部分析的深度学习模型可以根据受保护的属性区分。对于对DeepFake检测技术的商业采用和大规模推出,对跨性别和种族等人口变化的深层探测器的评估和了解(不存在任何偏见或偏爱)至关重要。由于人口亚组之间的深泡探测器的性能差异会影响贫困子组的数百万人。本文旨在评估跨男性和女性的深泡探测器的公平性。但是,现有的DeepFake数据集未用人口标签注释以促进公平分析。为此,我们用性别标签手动注释了现有的流行DeepFake数据集,并评估了整个性别的当前DeepFake探测器的性能差异。我们对数据集的性别标记版本的分析表明,(a)当前的DeepFake数据集在性别上偏斜了分布,并且(b)通常采用的深层捕获探测器在性别中获得不平等的表现,而男性大多数均优于女性。最后,我们贡献了一个性别平衡和注释的DeepFake数据集GBDF,以减轻性能差异,并促进研究和发展,以朝着公平意识到的深层假探测器。 GBDF数据集可公开可用:https://github.com/aakash4305/gbdf
translated by 谷歌翻译